home *** CD-ROM | disk | FTP | other *** search
/ Internet Surfer 2.0 / Internet Surfer 2.0 (Wayzata Technology) (1996).iso / pc / text / mac / faqs.458 < prev    next >
Encoding:
Text File  |  1996-02-12  |  28.6 KB  |  628 lines

  1. Frequently Asked Questions (FAQS);faqs.458
  2.  
  3.  
  4.  
  5. For those who would prefer to see this worked out in detail:
  6. Assume the smaller envelope is uniform on [$0,$M], for some value
  7. of $M.  What is the expectation value of always switching?  A quarter of
  8. the time $100 >= $M (i.e. 50% chance $X is in [$M/2,$M] and 50% chance
  9. the larger envelope is chosen).  In this case the expected switching
  10. gain is -$50 (a loss).  Thus overall the always switch policy has an
  11. expected (relative to $100) gain of (3/4)*$50 + (1/4)*(-$50) = $25.
  12. However the expected absolute gain (in terms of M) is:
  13.   / M
  14.   |    g f(g) dg,   [ where f(g) = (1/2)*Uniform[0,M)(g) +
  15.   /-M                              (1/2)*Uniform(-M,0](g). ]
  16.  
  17.   = 0.  QED.
  18.  
  19. OK, so always switching is not the optimal switching strategy.  Surely
  20. there must be some strategy that takes advantage of the fact that we
  21. looked into the envelope and we know something we did not know before
  22. we looked.
  23.  
  24. Well, if we know the maximum value $M that can be in the smaller envelope,
  25. then the optimal decision criterion is to switch if $100 < $M, otherwise stick.
  26. The reason for the stick case is straightforward. The reason for the
  27. switch case is due to the pdf of the smaller envelope being twice as
  28. high as that of the larger envelope over the range [0,$M). That is, the
  29. expected gain in switching is (2/3)*$100 + (1/3)*(-$50) = $50.
  30.  
  31. What if we do not know the maximum value of the pdf?  You can exploit
  32. the "test value" technique to improve your chances.  The trick here is
  33. to pick a test value T.  If the amount in the envelope is less than the
  34. test value, switch; if it is more, do not.  This works in that if T happens
  35. to be in the range [M,2M] you will make the correct decision.  Therefore,
  36. assuming the unknown pdf is uniform on [0,M], you are slightly better off
  37. with this technique.
  38.  
  39. Of course, the pdf may not even be uniform, so the "test value" technique
  40. may not offer much of an advantage.  If you are allowed to play the game
  41. repeatedly, you can estimate the pdf, but that is another story...
  42.  
  43. ==> decision/exchange.p <==
  44. At one time, the Mexican and American dollars were devalued by 10 cents on each
  45. side of the border (i.e. a Mexican dollar was 90 cents in the US, and a US
  46. dollar was worth 90 cents in Mexico).  A man walks into a bar on the American
  47. side of the border, orders 10 cents worth of beer, and tenders a Mexican dollar
  48. in change.  He then walks across the border to Mexico, orders 10 cents worth of
  49. beer and tenders a US dollar in change.  He continues this throughout the day,
  50. and ends up dead drunk with the original dollar in his pocket.
  51.  
  52. Who pays for the drinks?
  53.  
  54. ==> decision/exchange.s <==
  55. The man paid for all the drinks.  But, you say, he ended up with the same
  56. amount of money that he started with!  However, as he transported Mexican
  57. dollars into Mexico and US dollars into the US, he performed "economic work"
  58. by moving the currency to a location where it was in greater demand (and thus
  59. valued higher).  The earnings from this work were spent on the drinks.
  60.  
  61. Note that he can only continue to do this until the Mexican bar runs out
  62. of US dollars, or the US bar runs out of Mexican dollars, i.e., until
  63. he runs out of "work" to do.
  64.  
  65. ==> decision/newcomb.p <==
  66. Newcomb's Problem
  67.  
  68. A being put one thousand dollars in box A and either zero or one million
  69. dollars in box B and presents you with two choices:
  70.     (1) Open box B only.
  71.     (2) Open both box A and B.
  72. The being put money in box B only if it predicted you will choose option (1).
  73. The being put nothing in box B if it predicted you will do anything other than
  74. choose option (1) (including choosing option (2), flipping a coin, etc.).
  75.  
  76. Assuming that you have never known the being to be wrong in predicting your
  77. actions, which option should you choose to maximize the amount of money you
  78. get?
  79.  
  80.  
  81. ==> decision/newcomb.s <==
  82. This is "Newcomb's Paradox".
  83.  
  84. You are presented with two boxes: one certainly contains $1000 and the
  85. other might contain $1 million.  You can either take one box or both.
  86. You cannot change what is in the boxes.  Therefore, to maximize your
  87. gain you should take both boxes.
  88.  
  89. However, it might be argued that you can change the probability that
  90. the $1 million is there.  Since there is no way to change whether the
  91. million is in the box or not, what does it mean that you can change
  92. the probability that the million is in the box?  It means that your
  93. choice is correlated with the state of the box.
  94.  
  95. Events which proceed from a common cause are correlated.  My mental
  96. states lead to my choice and, very probably, to the state of the box.
  97. Therefore my choice and the state of the box are highly correlated.
  98. In this sense, my choice changes the "probability" that the money is
  99. in the box.  However, since your choice cannot change the state of the
  100. box, this correlation is irrelevant.
  101.  
  102. The following argument might be made: your expected gain if you take
  103. both boxes is (nearly) $1000, whereas your expected gain if you take
  104. one box is (nearly) $1 million, therefore you should take one box.
  105. However, this argument is fallacious.  In order to compute the
  106. expected gain, one would use the formulas:
  107.  
  108.     E(take one) =    $0 * P(predict take both | take one) +
  109.                 $1,000,000 * P(predict take one | take one)
  110.     E(take both) =    $1,000 * P(predict take both | take both) +
  111.                 $1,001,000 * P(predict take one | take both)
  112.  
  113. While you are given that P(do X | predict X) is high, it is not given
  114. that P(predict X | do X) is high.  Indeed, specifying that P(predict X
  115. | do X) is high would be equivalent to specifying that the being could
  116. use magic (or reverse causality) to fill the boxes.  Therefore, the
  117. expected gain from either action cannot be determined from the
  118. information given.
  119.  
  120.  
  121. ==> decision/prisoners.p <==
  122. Three prisoners on death row are told that one of them has been chosen
  123. at random for execution the next day, but the other two are to be
  124. freed.  One privately begs the warden to at least tell him the name of
  125. one other prisoner who will be freed.  The warden relents: 'Susie will
  126. go free.'  Horrified, the first prisoner says that because he is now
  127. one of only two remaining prisoners at risk, his chances of execution
  128. have risen from one-third to one-half!  Should the warden have kept his
  129. mouth shut?
  130.  
  131. ==> decision/prisoners.s <==
  132. Each prisoner had an equal chance of being the one chosen to be
  133. executed.  So we have three cases:
  134.  
  135. Prisoner executed:         A    B    C
  136. Probability of this case: 1/3  1/3  1/3
  137.  
  138. Now, if A is to be executed, the warden will randomly choose either B or C,
  139. and tell A that name.  When B or C is the one to be executed, there is only
  140. one prisoner other than A who will not be executed, and the warden will always
  141. give that name.  So now we have:
  142.  
  143. Prisoner executed:  A    A    B    C
  144. Name given to A:    B    C    C    B
  145. Probability:       1/6  1/6  1/3  1/3
  146.  
  147. We can calculate all this without knowing the warden's answer.
  148. When he tells us B will not be executed, we eliminate the middle two
  149. choices above.  Now, among the two remaining cases, C is twice
  150. as likely as A to be the one executed.  Thus, the probability that
  151. A will be executed is still 1/3, and C's chances are 2/3.
  152.  
  153. Xref: bloom-picayune.mit.edu rec.puzzles:18140 news.answers:3072
  154. Newsgroups: rec.puzzles,news.answers
  155. Path: bloom-picayune.mit.edu!snorkelwacker.mit.edu!usc!sdd.hp.com!elroy.jpl.nasa.gov!ames!haven.umd.edu!uunet!questrel!chris
  156. From: uunet!questrel!chris (Chris Cole)
  157. Subject: rec.puzzles FAQ, part 5 of 15
  158. Message-ID: <puzzles-faq-5_717034101@questrel.com>
  159. Followup-To: rec.puzzles
  160. Summary: This posting contains a list of
  161.      Frequently Asked Questions (and their answers).
  162.      It should be read by anyone who wishes to
  163.      post to the rec.puzzles newsgroup.
  164. Sender: chris@questrel.com (Chris Cole)
  165. Reply-To: uunet!questrel!faql-comment
  166. Organization: Questrel, Inc.
  167. References: <puzzles-faq-1_717034101@questrel.com>
  168. Date: Mon, 21 Sep 1992 00:08:56 GMT
  169. Approved: news-answers-request@MIT.Edu
  170. Expires: Sat, 3 Apr 1993 00:08:21 GMT
  171. Lines: 1594
  172.  
  173. Archive-name: puzzles-faq/part05
  174. Last-modified: 1992/09/20
  175. Version: 3
  176.  
  177. ==> decision/red.p <==
  178. I show you a shuffled deck of standard playing cards, one card at a
  179. time.  At any point before I run out of cards, you must say "RED!".
  180. If the next card I show is red (i.e. diamonds or hearts), you win.  We
  181. assume I the "dealer" don't have any control over what the order of
  182. cards is.
  183.  
  184. The question is, what's the best strategy, and what is your
  185. probability of winning ?
  186.  
  187. ==> decision/red.s <==
  188. If a deck has n cards, r red and b black, the best strategy wins
  189. with a probability of r/n.  Thus, you can say "red" on the first card,
  190. the last card, or any other card you wish.
  191. Proof by induction on n.  The statement is clearly true for one-card decks.
  192. Suppose it is true for n-card decks, and add a red card.
  193. I will even allow a nondeterministic strategy, meaning you say "red"
  194. on the first card with probability p.  With probability 1-p,
  195. you watch the first card go by, and then apply the "optimal" strategy
  196. to the remaining n-card deck, since you now know its composition.
  197. The odds of winning are therefore: p * (r+1)/(n+1)  +
  198.         (1-p) * ((r+1)/(n+1) * r/n  +  b/(n+1) * (r+1)/n).
  199. After some algebra, this becomes (r+1)/(n+1) as expected.
  200. Adding a black card yields: p * r/(n+1)  +
  201.         (1-p) * (r/(n+1) * (r-1)/n  +  (b+1)/(n+1) * r/n).
  202. This becomes r/(n+1) as expected.
  203.  
  204. ==> decision/rotating.table.p <==
  205. Four glasses are placed upside down in the four corners of a square
  206. rotating table.  You wish to turn them all in the same direction,
  207. either all up or all down.  You may do so by grasping any two glasses
  208. and, optionally, turning either over.  There are two catches:  you are
  209. blindfolded and the table is spun after each time you touch the
  210. glasses.  How do you do it?
  211. ==> decision/rotating.table.s <==
  212. 1.  Turn two adjacent glasses up.
  213. 2.  Turn two diagonal glasses up.
  214. 3.  Pull out two diagonal glasses.  If one is down, turn it up and you're done.
  215.     If not, turn one down and replace.
  216. 4.  Take two adjacent glasses.  Invert them both.
  217. 5.  Take two diagonal glasses.  Invert them both.
  218.  
  219. References
  220.     Probing the Rotating Table"
  221.     W. T. Laaser and L. Ramshaw
  222.     _The Mathematical Gardner_,
  223.     Wadsworth International, Belmont CA 1981.
  224.  
  225.     ... we will see that such a procedure exists if and
  226.     only if the parameters k and n satisfy the inequality
  227.     k >= (1-1/p)n, where p is the largest prime factor
  228.     of n.
  229.  
  230. The paper mentions (without discussing) two other generalizations:
  231. more than two orientations of the glasses (Graham and Diaconis)
  232. and more symmetries in the table, e.g. those of a cube (Kim).
  233.  
  234. ==> decision/stpetersburg.p <==
  235. What should you be willing to pay to play a game in which the payoff is
  236. calculated as follows:  a coin is flipped until in comes up heads on the
  237. nth toss and the payoff is set at 2^n dollars?
  238.  
  239. ==> decision/stpetersburg.s <==
  240. Classical decison theory says that you should be willing to pay any
  241. amount up to the expected value of the wager.  Let's calculate the
  242. expected value:  The probability of winning at step n is 2^-n, and the
  243. payoff at step n is 2^n, so the sum of the products of the
  244. probabilities and the payoffs is:
  245.  
  246.     E = sum over n (2^-n * 2^n) = sum over n (1) = infinity
  247.  
  248. So you should be willing to pay any amount to play this game.  This is
  249. called the "St. Petersburg Paradox."
  250.  
  251. The classical solution to this problem was given by Bernoulli.  He
  252. noted that people's desire for money is not linear in the amount of
  253. money involved.  In other words, people do not desire $2 million twice
  254. as much as they desire $1 million.  Suppose, for example, that people's
  255. desire for money is a logarithmic function of the amount of money.
  256. Then the expected VALUE of the game is:
  257.  
  258.     E = sum over n (2^-n * C * log(2^n)) = sum over n (2^-n * C' * n) =  C''
  259.  
  260. Here the C's are constants that depend upon the risk aversion of the
  261. player, but at least the expected value is finite.  However, it turns
  262. out that these constants are usually much higher than people are really
  263. willing to pay to play, and in fact it can be shown that any
  264. non-bounded utility function (map from amount of money to value of
  265. money) is prey to a generalization of the St. Petersburg paradox.  So
  266. the classical solution of Bernoulli is only part of the story.
  267.  
  268. The rest of the story lies in the observation that bankrolls are always
  269. finite, and this dramatically reduces the amount you are willing to bet
  270. in the St. Petersburg game.
  271.  
  272. To figure out what would be a fair value to charge for playing the game
  273. we must know the bank's resources.  Assume that the bank has 1 million
  274. dollars (1*K*K = 2^20).  I cannot possibly win more than $1 million
  275. whether I toss 20 tails in a row or 2000.
  276.  
  277. Therefore my expected amount of winning is
  278.  
  279.     E = sum n up to 20 (2^-n * 2^n) = sum n up to 20 (1) = $20
  280.  
  281. and my expected value of winning is
  282.  
  283.     E = sum n up to 20 (2^-n * C * log(2^n)) = some small number
  284.  
  285. This is much more in keeping with what people would really pay to
  286. play the game.
  287.  
  288. Incidentally, T.C. Fry suggested this change to the problem in 1928
  289. (see W.W.R. Ball, Mathematical Recreations and Essays, N.Y.: Macmillan,
  290. 1960, pp.  44-45).
  291.  
  292. The problem remains interesting when modified in this way,
  293. for the following reason. For a particular value of the bank's
  294. resources, let
  295.  
  296.       e denote the expected value of the player's winnings; and let
  297.       p denote the probability that the player profits from the game, assuming
  298.         the price of getting into the game is 0.8e (20% discount).
  299.  
  300. Note that the expected value of the player's profit is 0.2e.  Now
  301. let's vary the bank's resources and observe how e and p change.  It
  302. will be seen that as e (and hence the expected value of the profit)
  303. increases, p diminishes.  The more the game is to the player's
  304. advantage in terms of expected value of profit, the less likely it is
  305. that the player will come away with any profit at all.  This
  306. is mildly counterintuitive.
  307.  
  308. ==> decision/switch.p <==
  309. Switch? (The Monty Hall Problem)
  310.  
  311. Two black marbles and a red marble are in a bag. You choose one marble from the
  312. bag without looking at it. Another person chooses a marble from the bag and it
  313. is black. You are given a chance to keep the marble you have or switch it with
  314. the one in the bag. If you want to end up with the red marble, is there an
  315. advantage to switching? What if the other person looked at the marbles remaining
  316. in the bag and purposefully selected a black one?
  317.  
  318. ==> decision/switch.s <==
  319. Generalize the problem from three marbles to n marbles.
  320.  
  321. If there are n marbles, your odds of having selected the red one are 1/n. After
  322. the other person selected a black one at random, your odds go up to 1/(n-1).
  323. There are n-2 marbles left in the bag, so your odds of selecting the red one
  324. by switching are 1/(n-2) times the odds that you did not already select it
  325. (n-2)/(n-1) or 1/(n-1), the same as the odds of already selecting it. Therefore
  326. there is no advantage to switching.
  327.  
  328. If the person looked into the bag and selected a black one on purpose, then
  329. your odds of having selected the red one are not improved, so the odds of
  330. selecting the red one by switching are 1/(n-2) times (n-1)/n or (n-1)/n(n-2).
  331. This is (n-1)/(n-2) times better than the odds without switching, so you
  332. should switch.
  333.  
  334. This is a clarified version of the Monty Hall "paradox":
  335.  
  336. You are a participant on "Let's Make a Deal." Monty Hall shows you
  337. three closed doors.  He tells you that two of the closed doors have a
  338. goat behind them and that one of the doors has a new car behind it.
  339. You pick one door, but before you open it, Monty opens one of the two
  340. remaining doors and shows that it hides a goat.  He then offers you a
  341. chance to switch doors with the remaining closed door.  Is it to your
  342. advantage to do so?
  343.  
  344. The original Monty Hall problem (and solution) appears to be due to
  345. Steve Selvin, and appears in American Statistician, Feb 1975, V. 29,
  346. No. 1, p. 67 under the title ``A Problem in Probability.''  It should
  347. be of no surprise to readers of this group that he received several
  348. letters contesting the accuracy of his solution, so he responded two
  349. issues later (American Statistician, Aug 1975, V. 29, No. 3, p. 134).
  350. I extract a few words of interest, including a response from Monty
  351. Hall himself:
  352.  
  353.    ...  The basis to my solution is that Monty Hall knows which box
  354.    contains the prize and when he can open either of two boxes without
  355.    exposing the prize, he chooses between them at random ...
  356.  
  357.    Benjamin King pointed out the critical assumptions about Monty
  358.    Hall's behavior that are necessary to solve the problem, and
  359.    emphasized that ``the prior distribution is not the only part of
  360.    the probabilistic side of a decision problem that is subjective.''
  361.  
  362.    Monty Hall wrote and expressed that he was not ``a student of
  363.    statistics problems'' but ``the big hole in your argument is that
  364.    once the first box is seen to be empty, the contestant cannot
  365.    exchange his box.''  He continues to say, ``Oh, and incidentally,
  366.    after one [box] is seen to be empty, his chances are not 50/50 but
  367.    remain what they were in the first place, one out of three.  It
  368.    just seems to the contestant that one box having been eliminated,
  369.    he stands a better chance.  Not so.''  I could not have said it
  370.    better myself.
  371.  
  372. The basic idea is that the Monty Hall problem is confusing for two
  373. reasons:  first,  there are hidden assumptions about Monty's motivation
  374. that cloud the issue in some peoples' minds; and second, novice probability
  375. students do not see that the opening of the door gave them any new
  376. information.
  377.  
  378. Monty can have one of three basic motives:
  379. 1.  He randomly opens doors.
  380. 2.  He always opens the door he knows contains nothing.
  381. 3.  He only opens a door when the contestant has picked the grand prize.
  382.  
  383. These result in very different strategies:
  384. 1.  No improvement when switching.
  385. 2.  Double your odds by switching.
  386. 3.  Don't switch!
  387.  
  388. Most people, myself included, think that (2) is the intended
  389. interpretation of Monty's motive.
  390.  
  391. A good way to see that Monty is giving you information by opening doors is to
  392. increase the number of doors from three to 100.  If there are 100 doors,
  393. and Monty shows that 98 of them are empty, isn't it pretty clear that
  394. the chance the prize is behind the remaining door is 99/100?
  395.  
  396. Reference (too numerous to mention, but this one should do):
  397.     Leonard Gillman
  398.     "The Car and the Goats"
  399.     The American Mathematical Monthly, 99:1 (Jan 1992), pp. 3-7.
  400.  
  401. ==> decision/truel.p <==
  402. A, B, and C are to fight a three-cornered pistol duel.  All know that
  403. A's chance of hitting his target is 0.3, C's is 0.5, and B never misses.
  404. They are to fire at their choice of target in succession in the order
  405. A, B, C, cyclically (but a hit man loses further turns and is no longer
  406. shot at) until only one man is left.  What should A's strategy be?
  407.  
  408. ==> decision/truel.s <==
  409. This is problem 20 in Mosteller _Fifty Challenging Problems in Probability_
  410. and it also appears (with an almost identical solution) on page 82 in
  411. Larsen & Marx _An Introduction to Probability and Its Applications_.
  412.  
  413. Here's Mosteller's solution:
  414.  
  415.   A is naturally not feeling cheery about this enterprise.  Having the
  416. first shot he sees that, if he hits C, B will then surely hit him, and
  417. so he is not going to shoot at C.  If he shoots at B and misses him,
  418. then B clearly {I disagree; this is not at all clear!} shoots the more
  419. dangerous C first, and A gets one shot at B with probability 0.3 of
  420. succeeding.  If he misses this time, the less said the better.  On the
  421. other hand, suppose A hits B.  Then C and A shoot alternately until one
  422. hits.  A's chance of winning is (.5)(.3) + (.5)^2(.7)(.3) +
  423. (.5)^3(.7)^2(.3) + ... .  Each term cooresponds to a sequence of misses
  424. by both C and A ending with a final hit by A.  Summing the geometric
  425. series we get ... 3/13 < 3/10.  Thus hitting B and finishing off with
  426. C has less probability of winning for A than just missing the first shot.
  427. So A fires his first shot into the ground and then tries to hit B with
  428. his next shot.  C is out of luck.
  429.  
  430. As much as I respect Mosteller, I have some serious problems with this
  431. solution.  If we allow the option of firing into the ground, then if
  432. all fire into the ground with every shot, each will survive with
  433. probability 1.  Now, the argument could be made that a certain
  434. strategy for X that both allows them to survive with probability 1
  435. *and* gives less than a probability of survival of less than 1 for
  436. at least one of their foes would be preferred by X.  However, if
  437. X pulls the trigger and actually hits someone what would the remaining
  438. person, say Y, do?  If P(X hits)=1, clearly Y must try to hit X, since
  439. X firing at Y with intent to hit dominates any other strategy for X.
  440. If P(X hits)<1 and X fires at Y with intent to hit, then
  441. P(Y survives)<1 (since X could have hit Y).  Thus, Y must insure that
  442. X can not follow this strategy by shooting back at X (thus insuring
  443. that P(X survives)<1).  Therefore, I would conclude that the ideal
  444. strategy for all three players, assuming that they are rational and
  445. value survival above killing their enemies, would be to keep firing
  446. into the ground.  If they don't value survival above killing their
  447. enemies (which is the only a priori assumption that I feel can be
  448. safely made in the absence of more information), then the problem
  449. can't be solved unless the function each player is trying to maximize
  450. is explicitly given.
  451. --
  452.     -- clong@remus.rutgers.edu (Chris Long)
  453.  
  454. OK - I'll have a go at this.
  455.  
  456. How about the payoff function being 1 if you win the "duel" (i.e. if at some
  457. point you are still standing and both the others have been shot) and 0
  458. otherwise? This should ensure that an infinite sequence of deliberate misses
  459. is not to anyone's advantage. Furthermore, I don't think simple survival
  460. makes a realistic payoff function, since people with such a payoff function
  461. would not get involved in the fight in the first place!
  462.  
  463. [ I.e. I am presupposing a form of irrationality on the part of the
  464.   fighters: they're only interested in survival if they win the duel. Come
  465.   to think of it, this may be quite rational - spending the rest of my life
  466.   firing a gun into the ground would be a very unattractive proposition to
  467.   me :-)
  468. ]
  469.  
  470. Now, denote each position in the game by the list of people left standing,
  471. in the order in which they get their turns (so the initial position is
  472. (A,B,C), and the position after A misses the first shot (B,C,A)). We need to
  473. know the value of each possible position for each person.
  474.  
  475. By definition:
  476.  
  477.     valA(A) = 1            valB(A) = 0            valC(A) = 0
  478.     valA(B) = 0            valB(B) = 1            valC(B) = 0
  479.     valA(C) = 0            valB(C) = 0            valC(C) = 1
  480.  
  481. Consider the two player position (X,Y). An infinite sequence of misses has
  482. value zero to both players, and each player can ensure a positive payoff by
  483. trying to shoot the other player. So both players deliberately missing is a
  484. sub-optimal result for both players. The question is then whether both
  485. players should try to shoot the other first, or whether one should let the
  486. other take the first shot. Since having the first shot is always an
  487. advantage, given that some real shots are going to be fired, both players
  488. should try to shoot the other first. It is then easy to establish that:
  489.  
  490.     valA(A,B) = 3/10       valB(A,B) = 7/10       valC(A,B) = 0
  491.     valA(B,A) = 0          valB(B,A) = 1          valC(B,A) = 0
  492.     valA(B,C) = 0          valB(B,C) = 1          valC(B,C) = 0
  493.     valA(C,B) = 0          valB(C,B) = 5/10       valC(C,B) = 5/10
  494.     valA(C,A) = 3/13       valB(C,A) = 0          valC(C,A) = 10/13
  495.     valA(A,C) = 6/13       valB(A,C) = 0          valC(A,C) = 7/13
  496.  
  497. Now for the three player positions (A,B,C), (B,C,A) and (C,A,B). Again, the
  498. fact that an infinite sequence of misses is sub-optimal for all three
  499. players means that at least one player is going to decide to fire. However,
  500. it is less clear than in the 2 player case that any particular player is
  501. going to fire. In the 2 player case, each player knew that *if* it was
  502. sub-optimal for him to fire, then it was optimal for the other player to
  503. fire *at him* and that he would be at a disadvantage in the ensuing duel
  504. because of not having got the first shot. This is not necessarily true in
  505. the 3 player case.
  506.  
  507. Consider the payoff to A in the position (A,B,C). If he shoots at B, his
  508. expected payoff is:
  509.  
  510.     0.3*valA(C,A) + 0.7*valA(B,C,A) = 9/130 + 0.7*valA(B,C,A)
  511.  
  512. If he shoots at C, his expected payoff is:
  513.  
  514.     0.3*valA(B,A) + 0.7*valA(B,C,A) = 0.7*valA(B,C,A)
  515.  
  516. And if he deliberately misses, his expected payoff is:
  517.  
  518.     valA(B,C,A)
  519.  
  520. Since he tries to maximise his payoff, we can immediately eliminate shooting
  521. at C as a strategy - it is strictly dominated by shooting at B. So A's
  522. expected payoff is:
  523.  
  524.     valA(A,B,C) = MAX(valA(B,C,A), 9/130 + 0.7*valA(B,C,A))
  525.  
  526. A similar argument shows that C's expected payoffs in the (C,A,B) position are:
  527.  
  528.     For shooting at A: 0.5*valC(A,B,C)
  529.     For shooting at B: 35/130 + 0.5*valC(A,B,C)
  530.     For missing:       valC(A,B,C)
  531.  
  532. So C either shoots at B or deliberately misses, and:
  533.  
  534.     valC(C,A,B) = MAX(valC(A,B,C), 35/130 + 0.5*valC(A,B,C))
  535.  
  536. Each player can obtain a positive expected payoff by shooting at one of the
  537. other players, and it is known that an infinite sequence of misses will
  538. result in a zero payoff for all players. So it is known that some player's
  539. strategy must involve shooting at another player rather than deliberately
  540. missing.
  541.  
  542. Now look at this from the point of view of player B. He knows that *if* it
  543. is sub-optimal for him to shoot at another player, then it is optimal for at
  544. least one of the other players to shoot. He also knows that if the other
  545. players choose to shoot, they will shoot *at him*. If he deliberately
  546. misses, therefore, the best that he can hope for is that they miss him and
  547. he is presented with the same situation again. This is clearly less good for
  548. him than getting his shot in first. So in position (B,C,A), he must shoot at
  549. another player rather than deliberately miss.
  550.  
  551. B's expected payoffs are:
  552.  
  553.     For shooting at A: valB(C,B) = 5/10
  554.     For shooting at C: valB(A,B) = 7/10
  555.  
  556. So in position (B,C,A), B shoots at C for an expected payoff of 7/10. This
  557. gives us:
  558.  
  559.     valA(B,C,A) = 3/10     valB(B,C,A) = 7/10     valC(B,C,A) = 0
  560.  
  561. So valA(A,B,C) = MAX(3/10, 9/130 + 21/100) = 3/10, and A's best strategy is
  562. position (A,B,C) is to deliberately miss, giving us:
  563.  
  564.     valA(A,B,C) = 3/10     valB(A,B,C) = 7/10     valC(A,B,C) = 0
  565.  
  566. And finally, valC(C,A,B) = MAX(0, 35/130 + 0) = 7/26, and C's best strategy
  567. in position (C,A,B) is to shoot at B, giving us:
  568.  
  569.     valA(C,A,B) = 57/260   valB(C,A,B) = 133/260  valC(C,A,B) = 7/26
  570.  
  571. I suspect that, with this payoff function, all positions with 3 players can
  572. be resolved. For each player, we can establish that if their correct
  573. strategy is to fire at another player, then it is to fire at whichever of
  574. the other players is more dangerous. The most dangerous of the three players
  575. then finds that he has nothing to lose by firing at the second most
  576. dangerous.
  577.  
  578. Questions:
  579.  
  580. (a) In the general case, what are the optimal strategies for the other two
  581.     players, possibly as functions of the hit probabilities and the cyclic
  582.     order of the three players?
  583.  
  584. (b) What happens in the 4 or more player case?
  585.  
  586.     -- David Seal <dseal@armltd.co.uk>
  587.  
  588. ==> english/acronym.p <==
  589. What acronyms have become common words?
  590.  
  591. ==> english/acronym.s <==
  592. The following is the list of acronyms which have become common nouns.
  593. An acronym is "a word formed from the initial letter or letters of each
  594. of the successive parts or major parts of a compound term" (Webster's Ninth).
  595. A common noun will occur uncapitalized in Webster's Ninth.
  596.  
  597. Entries in the following table include the year in which they first
  598. entered the language (according to the Ninth), and the Merriam-Webster
  599. dictionary that first contains them.  The following symbols are used:
  600.  
  601. NI1    New International (1909)
  602. NI1+    New Words section of the New International (1931)
  603. NI2    New International Second Edition (1934)
  604. NI2+    Addendum section of the Second (1959, same as 1954)
  605. NI3    Third New International (1961)
  606. 9C    Ninth New Collegiate (1983)
  607. 12W    12,000 Words (separately published addendum to the Third, 1986)
  608.  
  609. asdic    Anti-Submarine Detection Investigation Committee (1940, NI2+)
  610. dew    Distant Early Warning (1953, 9C)
  611. dopa    DihydrOxyPhenylAlanine (1917, NI3)
  612. fido    Freaks + Irregulars + Defects + Oddities (1966, 9C)
  613. jato    Jet-Assisted TakeOff (1947, NI2+)
  614. laser    Light Amplification by Stimulated Emission of Radiation (1957, NI3)
  615. lidar    LIght Detection And Ranging (1963, 9C)
  616. maser    Microwave Amplification by Stimulated Emission of Radiation (1955, NI3)
  617. nitinol    NIckel + TIn + Naval Ordinance Laboratory (1968, 9C)
  618. rad    Radiation Absorbed Dose (1918, NI3)
  619. radar    RAdio Detection And Ranging (ca. 1941, NI2+)
  620. rem    Roentgen Equivalent Man (1947, NI3)
  621. rep    Roentgen Equivalent Physical (1947, NI3)
  622. scuba    Self-Contained Underwater Breathing Apparatus (1952, NI3)
  623. snafu    Situation Normal -- All Fucked (Fouled) Up (ca. 1940, NI2+)
  624. sofar    SOund Fixing And Ranging (1946, NI2+)
  625. sonar    SOund NAvigation Ranging (1945, NI2+)
  626. tepa    Tri-Ethylene Phosphor-Amide (1953, 9C)
  627. zip    Zone Improvement Plan (1963, 9C)
  628.